AI资讯新闻榜单内容搜索-Transforme

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: Transforme
非Transformer架构的新突破,Liquid AI开源LFM2.5-1.2B-Thinking模型

非Transformer架构的新突破,Liquid AI开源LFM2.5-1.2B-Thinking模型

非Transformer架构的新突破,Liquid AI开源LFM2.5-1.2B-Thinking模型

就在刚刚,Liquid AI 又一次在 LFM 模型上放大招。他们正式发布并开源了 LFM2.5-1.2B-Thinking,一款可完全在端侧运行的推理模型。Liquid AI 声称,该模型专门为简洁推理而训练;在生成最终答案前,会先生成内部思考轨迹;在端侧级别的低延迟条件下,实现系统化的问题求解;在工具使用、数学推理和指令遵循方面表现尤为出色。

来自主题: AI资讯
9475 点击    2026-01-22 11:59
马斯克刚刚真把 𝕏 平台推荐算法给开源了,核心也是Transformer

马斯克刚刚真把 𝕏 平台推荐算法给开源了,核心也是Transformer

马斯克刚刚真把 𝕏 平台推荐算法给开源了,核心也是Transformer

刚刚,𝕏 平台(原 Twitter 平台)公布了全新的开源消息:已将全新的推荐算法开源,该算法由与 xAI 的 Grok 模型相同的 Transformer 架构驱动。

来自主题: AI技术研报
9899 点击    2026-01-21 10:40
Sebastian Raschka 2026预测:Transformer统治依旧,但扩散模型正悄然崛起

Sebastian Raschka 2026预测:Transformer统治依旧,但扩散模型正悄然崛起

Sebastian Raschka 2026预测:Transformer统治依旧,但扩散模型正悄然崛起

站在 2026 年的开端回望,LLM 的架构之争似乎进入了一个新的微妙阶段。过去几年,Transformer 架构以绝对的统治力横扫了人工智能领域,但随着算力成本的博弈和对推理效率的极致追求,挑战者们从未停止过脚步。

来自主题: AI技术研报
9043 点击    2026-01-14 15:25
梁文锋署名新论文,DeepSeek V4架构首曝?直击Transformer致命缺陷

梁文锋署名新论文,DeepSeek V4架构首曝?直击Transformer致命缺陷

梁文锋署名新论文,DeepSeek V4架构首曝?直击Transformer致命缺陷

深夜,梁文锋署名的DeepSeek新论文又来了。这一次,他们提出全新的Engram模块,解决了Transformer的记忆难题,让模型容量不再靠堆参数!

来自主题: AI技术研报
5610 点击    2026-01-13 16:11
Transformer已死?DeepMind正在押注另一条AGI路线

Transformer已死?DeepMind正在押注另一条AGI路线

Transformer已死?DeepMind正在押注另一条AGI路线

借鉴人类联想记忆,嵌套学习让AI在运行中构建抽象结构,超越Transformer的局限。谷歌团队强调:优化器与架构互为上下文,协同进化才能实现真正持续学习。这篇论文或成经典,开启AI从被动训练到主动进化的大门。

来自主题: AI技术研报
9406 点击    2026-01-09 11:24
注意力机制大变革?Bengio团队找到了一种超越Transformer的硬件对齐方案

注意力机制大变革?Bengio团队找到了一种超越Transformer的硬件对齐方案

注意力机制大变革?Bengio团队找到了一种超越Transformer的硬件对齐方案

Transformer 已经改变了世界,但也并非完美,依然还是有竞争者,比如线性递归(Linear Recurrences)或状态空间模型(SSM)。这些新方法希望能够在保持模型质量的同时显著提升计算性能和效率。

来自主题: AI技术研报
8603 点击    2026-01-07 17:22
英伟达成美国大模型开源标杆:Nemotron 3连训练配方都公开,10万亿token数据全放出

英伟达成美国大模型开源标杆:Nemotron 3连训练配方都公开,10万亿token数据全放出

英伟达成美国大模型开源标杆:Nemotron 3连训练配方都公开,10万亿token数据全放出

英伟达在开源模型上玩的很激进: “最高效的开放模型家族”Nemotron 3,混合Mamba-Transformer MoE架构、NVFP4低精度训练全用上。而且开放得很彻底:

来自主题: AI资讯
7322 点击    2025-12-26 15:48
对标GPT-4o和香蕉!浙大开源ContextGen:布局身份协同新SOTA

对标GPT-4o和香蕉!浙大开源ContextGen:布局身份协同新SOTA

对标GPT-4o和香蕉!浙大开源ContextGen:布局身份协同新SOTA

浙江大学ReLER团队开源ContextGen框架,攻克多实例图像生成中布局与身份协同控制难题。基于Diffusion Transformer架构,通过双重注意力机制,实现布局精准锚定与身份高保真隔离,在基准测试中超越开源SOTA模型,对标GPT-4o等闭源系统,为定制化AI图像生成带来新突破。

来自主题: AI技术研报
8863 点击    2025-12-22 16:08
「背叛」Scaling Law?Transformer作者撬动美国开源AI革命,Essential AI Labs开源Rnj-1模型

「背叛」Scaling Law?Transformer作者撬动美国开源AI革命,Essential AI Labs开源Rnj-1模型

「背叛」Scaling Law?Transformer作者撬动美国开源AI革命,Essential AI Labs开源Rnj-1模型

AI不应是巨头游戏,模型也不是越大越聪明。近日,「Transformer八子」中的Ashish Vaswani和Parmar共同推出了一个8B的开源小模型,剑指Scaling Law软肋,为轻量化、开放式AI探索了新方向。

来自主题: AI资讯
8082 点击    2025-12-20 10:31